robots.txt は法律上以下のようになってます。
つまり新 2ch では以下のようなサイトが法律上 NG になります
OK なのは以下の行為です
無論、これらのクライアントが常軌を逸した動作をして、結果 2ch のサービス継続を妨害するようなことがあれば、 2ch は民事、刑事で適切な対応を取ることができるでしょう。この場合参考になるのは librahack 事件で、
というのをやれば日本では問題ないとされています。
「技術的保護手段」を回避してクロールしたとしても、その結果を公開しなければ刑事上の責任は発生しません。
また新 API を実装した 2ch が「2ch が認証するクライアント、方法以外でのアクセスを禁止する」という利用規約を設定した場合、 2ch はスクレイピングする人と民事で争うことは可能だろうとは思います。
ただ、新聞社の記事の違法な転載でアクセス稼ぎまくってる 2ch がそういう訴訟提起かというと微妙でしょう。だいたいアメリカの会社ですし。また特定のユーザーエージェントだけ許可するという規約が有効かどうかは、、、という感じです。
他には、 2ch が規定する以外の閲覧形式を提供したということで、著作人格権の同一性保持権を使って刑事でやっていくというのも考えられますが、ゲームのエミュ鯖というかなりグレーな感じするものでも「同一性保持権の侵害」では挙げられないというのが日本の検察の判断なのでこれもまあ無理でしょう。
2ch.net の脅迫なんか気にせずどんどん勝手にスクレイピングしよう。
Twitter でなんだかんだでみんなスクレイピングしなくなったのは、サイトが動的すぎてスクレイピングしづらいというの以上に、 User Sterams のおかげでスクレイピングなんかしなくてもみんなが満足するクライアント開発できるようになったからです。
2ch.net が本気で sc を排除したいなら、 sc 以外の誰もがちゃんと満足する API をオープンに提供して、技術的手段で sc のデータ盗難を防ぐようにするのがよいのではないでしょうか。ターゲットの広い変な脅迫は 2ch.net の衰退に繋がると思う。